什么是GraphRAG?从传统RAG到GraphRAG技术全景解析
随着企业对“可控、可解释、可扩展”的 AI 能力需求日益增强,GraphRAG 正在成为下一代 RAG 系统的关键演进方向。本文深度解析其技术演化路径与应用价值,揭示图谱增强生成在智能问答、企业知识管理等场景中的突破性意义。
rag llm 全景 graphrag graphrag技术 2025-10-28 16:13 2
随着企业对“可控、可解释、可扩展”的 AI 能力需求日益增强,GraphRAG 正在成为下一代 RAG 系统的关键演进方向。本文深度解析其技术演化路径与应用价值,揭示图谱增强生成在智能问答、企业知识管理等场景中的突破性意义。
rag llm 全景 graphrag graphrag技术 2025-10-28 16:13 2
人工智能不再仅仅是辅助工具,它正逐步成为真正的编程伙伴。在过去一年中,开发者见证了GitHub Copilot和ChatGPT等工具的兴起,这些技术彻底改变了代码编写的方式。然而,大多数此类工具主要运行于集成开发环境(IDE)或浏览器界面中。
作者介绍:德州农工大学博士生李港,专注于设计和应用高效算法到大规模机器学习和人工智能任务,包括增强大型基础模型的后训练算法、对抗性鲁棒学习算法和分布鲁棒性学习算法。曾发表数篇论文在 NeurIPS、ICML、KDD 等顶会, 并作为主要贡献者之一发布了针对不平
论文 推理 llm neurips25 neurips25高 2025-10-28 11:14 3
作者介绍:德州农工大学博士生李港,专注于设计和应用高效算法到大规模机器学习和人工智能任务,包括增强大型基础模型的后训练算法、对抗性鲁棒学习算法和分布鲁棒性学习算法。曾发表数篇论文在 NeurIPS、ICML、KDD 等顶会, 并作为主要贡献者之一发布了针对不平
“强化学习很糟糕,但之前的方法更糟!” 近日,斯坦福大学博士、前 OpenAI 创始成员兼研究科学家、Eureka Labs 创始人 Andrej Karpathy 围绕 LLM 与强化学习分享了自己的看法。
简单来说在线策略蒸馏巧妙地结合了两种主流后训练范式的优点:它既有强化学习等在线策略方法的相关性和可靠性,能够让模型从自身的错误中学习;又具备监督微调 (SFT) 等离线策略 (Off-policy) 方法的数据效率,通过密集的监督信号加速学习过程
llm thinking thinkingmachines 2025-10-28 06:19 1
智能眼镜上的摄像头能帮我们随时随地记录好风景。然而,如果有一天,你的智能眼镜在不知不觉中“看见”了一切,还将这些内容实时传送给他人,你是否会意识到?在24日的第一个挑战中,选手董宪锐面对一副由主办方提供的智能眼镜,成功利用设备未知缺陷发起攻击,在2分钟之内完成
为突破这一困局,北京大学与通用人工智能研究院联合提出全新 UniCode 框架。该研究由北京大学梁一韬助理教授指导,博士生郑欣悦为第一作者,林昊苇为共同一作,创新性地构建了一套能够自动生成高质量算法题目与抗污染测试用例的进化式评测系统。
作者为北京航空航天大学的肖宜松,刘艾杉,应宗浩,刘祥龙,新加坡国立大学的梁思源,新加坡南洋理工大学的陶大程。本文已被 NeurIPS 2025 录用。
BBC与欧洲广播联盟最新研究揭露了人工智能新闻助手的严重问题——在对全球四大主流AI平台进行的大规模测试中,高达81%的回答存在不同程度的错误,其中45%包含重大失实信息。这项涵盖18个国家、14种语言、3000个新闻相关问题的综合评估,为AI技术在新闻领域的
为突破这一困局,北京大学与通用人工智能研究院联合提出全新 UniCode 框架。该研究由北京大学梁一韬助理教授指导,博士生郑欣悦为第一作者,林昊苇为共同一作,创新性地构建了一套能够自动生成高质量算法题目与抗污染测试用例的进化式评测系统。
传统数据分析方法依赖人工拼接的流程,如编写SQL、调用Python脚本及手动解读数据,不仅耦合度高且扩展性差,难以应对动态、多模态的复杂数据。而大语言模型与智能体的出现,将数据分析从「规则执行」推向「语义理解」,使机器能够真正解读数据内在逻辑与关系,从而灵活完
作者为北京航空航天大学的肖宜松,刘艾杉,应宗浩,刘祥龙,新加坡国立大学的梁思源,新加坡南洋理工大学的陶大程。本文已被 NeurIPS 2025 录用。
最近是不是很多自媒体都在告诉你:“别跟 AI 客气,你越粗鲁,它的表现越好”?今天还刷到一个短视频,竟然拿出了一篇专门研究这个问题的论文,给出了肯定的结论。
来自中国科学院软件研究所团队的最新研究给出了一个出乎意料的答案:真正的瓶颈,在于那个我们用了40多年、无比熟悉的图形用户界面(GUI)。
在一篇论文中,研究人员测试了 11 种 LLM 如何回应超过 11500 条寻求建议的查询,其中许多查询描述了不当行为或伤害。结果发现LLM 附和用户行为的频率比人类高出 50%,即便用户的提问涉及操纵、欺骗或其他人际伤害等情境,模型仍倾向于给予肯定回应。
相信大家都碰到过类似这种情况,当你问 ChatGPT 或 Copilot:“最近 XXX 大火的新闻,后来进展怎么样了?”
成功率低:稍微复杂一点的任务,Agent就“翻车”,常常卡在某个步骤不知所措。效率差:完成一个简单任务,Agent需要和系统进行几十轮“极限拉扯”,耗时漫长,看得人着急。
你是不是也遇到过:内容做了,平台不给流量,用户不买单?这篇文章告诉你,产品人如何用GEO优化策略破解传统平台的流量与变现瓶颈,真正让内容“被看见、被理解、被转化”。
当今人工智能领域最大的谎言是“自我修正”证明了大型语言模型(LLM)能够推理。但事实并非如此:它只是在取平均值。